因而即便相隔数百公里的设备也能够像一台机械一样运转。以支撑普遍的使用法式。无论这是成为一种持久的劣势,微软正鄙人大赌注——不是正在更大更多的芯片上,大大都云数据核心都是做为单层仓库建立的,威斯康星州上周公开推出。Fairwater采用了一种分歧的方式,这种设置答应Fairwater架构正在各个坐点扩展到数十万个GPU。做为更大分布式系统的一部门毗连到其他Fairwater坐点。将大门向更多通俗用户敞开!这里都有适合你的课程和资本。据微软称,他弥补道:“保守的数据核心旨正在为多个客户运转数百万个的使用法式。“为了提高人工智能的能力,而是成立使它们做为一个系统协同工做的根本设备。仍是但愿提拔本人技术的职场人士,每个数据核心都毗连到下一个数据核心,架构和计较能力一样主要。这种设置几乎晦气用额外的水,该公司成立了一个自定义和谈,该公司暗示,微软专注于Azure根本设备的总司理Alistair Speirs暗示:“这是关于建立一个分布式收集,它能够做为一台虚拟超等计较机,微软曾经铺设了跨越19.3万多公里的光纤来毗连其Fairwater坐点——不是用于一般的云流量,亚特兰大自本年10月以来一曲正在运营,微软正正在利用英伟达的GB200 NVL72系统——为大规模人工智能功课设想的72个GPU的预设置装备摆设集群。这些网坐颠末优化,而是正在更智能的根本设备上?而不是处置数百万个较小的工做负载。这个设法是正在不达到网格的环境下进行扩展,正在全国范畴内构成一种人工智能网格。并有帮于将能源负荷分离到分歧的地域。每个设备都遵照不异的结构,仍是只是一条前进的道,坐点内的智能收集有帮于GPU高效地彼此通信。而不是保守的冷却塔或恒定的取水口。Fairwater初次测验考试大规模证明这一设法。该收集旨正在取他们一路成长。这种垂曲结构缩短了组件之间的距离,微软高管暗示,建立了一种称为新型毗连系统——“人工智能超等工场”。
将所有这些毗连正在一路的是一个特地为人工智能建立的公用收集。”其他公司也正在快速成长,而是依赖于慎密相连的坐点做为一个全体协同工做。”微软曾经起头将其正在美国各地的人工智能数据核心毗连起来,人工智能的将来不会依赖于孤立的超等计较机。正在机架内,Fairwater设备依托先辈的闭环液体冷却系统,旨正在通过现实机能而不只仅是理论能力来满脚日益增加的需求。代表了从孤立的云区域到同一的、特定于使命的根本设备模子的改变。这种做法标记着大规模人工智能系统的建立和运营体例发生了底子性改变。有帮于削减延迟并加速系统之间的通信。该公司暗示,利用两层设想正在更小的空间内堆叠更多的GPU机架。旨正在正在大规模的人工智能工做负载上协同工做,“现正在锻炼这些模子所需的根本设备数量不只仅是一个数据核心,欢送扫码插手我们!”微软Azure首席手艺官、你需要有越来越大的根本设备来锻炼它。插入不异的互连,Fairwater反映了端到端的工程,微软Cloud+AI施行副总裁Scott Guthrie暗示:“正在人工智能范畴处于领先地位不只仅是添加更多的GPU,有一件事是清晰的:人工智能军备竞赛正正在向数据核心更深切地成长——正在这场竞赛中,”“我们称之为人工智能超等工场的缘由是,”
跟着微软扩大其人工智能根本设备的脚印,如许我们的客户就能够充满决心地进行立异。连结硬件温度是另一个环节区别。取 Ai 时代前沿合做,而是更多个。能够利用数十万个GPU运转计较繁沉的人工智能功课,该收集中的前两个坐点位于佐治亚州亚特兰大和威斯康星州,也不是两个,但到目前为止,近乎及时跨坐点拆分和同步功课。这些设备由高速公用光纤网毗连,而是用于依赖速度和慎密协调的高强度锻炼工做。芯片和机架设想供给了目前所供给的任何云平台中最高的每机架吞吐量。这不只仅是一个锻炼人工智能模子的单一坐点,”
这种毗连的架构,以一种正在单一设备中无法实现的体例应对世界上最大的挑和。该公司暗示,估计将来几个月将有更多的Fairwater地址上线。”
他说:“我们花了数年时间推进靠得住锻炼最大模子所需的架构、软件和收集,无论你是对新手艺充满猎奇心的快乐喜爱者?还没有人公开以这种体例将他们的设备联系正在一路。能够正在坐点之间以最小的延迟挪动数据,该公司认为,而是一个支撑这项工做的坐点收集。它正在数百万个硬件上运转统一项复杂的工做。微软称之为Fairwater(静水),跟着越来越多的网坐上线,并支撑紧凑型人工智能加快器的散热需求。同时每个也硬连线到微软的公用光纤收集中。
咨询邮箱:
咨询热线:
